【Mysql技术内幕InnoDB存储引擎】读书笔记

一、存储引擎

1、InnoDB引擎

设计目标是面向在线事务(OLTP)处理的应用。

支持事务、行级锁、通过多版本并发控制(MVCC)支持高并发、提供一致性非锁定读、next-key locking避免幻读、主键聚集索引

2、MyISAM引擎

设计目标是面向OLAP应用。

不支持事务、不支持行锁、表锁设计、支持全文索引

3、其他存储引擎

二、InnoDB体系结构

1、线程模型

InnoDB存储引擎是多线程模型,后台有多个不同的线程,用于处理不同的任务。

  • Master Thread:核心线程,将缓冲池中的数据异步刷新到磁盘
  • IO Thread:负责io请求的回调处理
  • Purge Thread:负责undo页的回收
  • Page Cleaner Thread:负责脏页的刷新

1.1、Master Thread

内部由多个循环组成。包括主循环(loop),后台循环(background loop)

主循环每隔一秒的操作

  • 把日志缓冲刷新到磁盘,即使这个事务还没有提交。很好的解释了再大的事务提交时间也很短
  • 合并插入缓冲
  • 至多刷新n(可配置,自动调整,1.2版本之后)个脏页到磁盘
  • 没有用户活动,切换到background loop

主循环每隔10秒的操作

  • 合并最多5个插入缓冲
  • 缓冲日志刷新到磁盘
  • 删除无用的undo页
  • 刷新脏页到磁盘(超过70%,刷新100页,没超过70%,刷新10页)

2、内存模型

2.1、缓冲池

InnoDB是基于磁盘的存储系统,为了弥补cpu和磁盘性能的差距,将从磁盘读出的数据保存在内存中,下次读取先从缓冲池中读取。有数据更新也先更新缓冲池的数据,通过checkpoint机制写回磁盘。缓冲池中包括索引页、数据页、undo页、插入缓存、锁信息等

2.2、缓冲池管理(LRU List)

最近做少使用算法,最频繁使用的页在List前端,最少使用的页在List末尾。当缓冲池容量不足容纳新数据时,先从尾部释放数据页。新数据插入在List的midpoint(List的5/8,对朴素LRU的优化,朴素LRU插入List头部。避免大量一次性查询把频繁使用的页刷出缓冲池)

2.3、脏页管理(Flush List)

当数据被更新,缓冲池中的数据首先被更新,修改之后的页称为脏页。脏页会保存到Flush List中,通过checkpoint机制把脏页数据写回磁盘

2.4、重做日志(redo log)缓冲

首先把重做日志信息存入缓冲区,然后按照一定频率同步到重做日志文件中。以下三种情况都会触发重做日志缓存同步到重做日志文件:

  • Master Thread 每隔一秒刷新
  • 每个事务提交时
  • 重做日志缓冲池容量达到阈值,一般是1/2

2.5、check point技术

为了防止宕机导致事务未提交信息丢失,在事务提交时,先把数据保存到重做日志(redo log)中,再修改页。保证了持久性(D)

发生宕机,重启之后自动从重做日志中恢复数据。

但是这里有以下问题:

  • 重做日志过大,宕机重启恢复数据太慢
  • 重做日志不能无限扩容,需要循环利用
  • 重做日志不可用怎么办

check point就是为了解决这些问题:

  • 缩短数据库恢复时间
  • 重做日志不可用,刷新脏页
  • 缓冲池不够用,将脏页刷新到磁盘

check point触发时机:

  • Master Thread check point。每隔一秒触发一次
  • LRU List check point。保证LRU List中有100个空闲页,如果清理的页中有脏页,触发check point 强制刷新脏页数据到磁盘
  • Dirty Page too mush check point。脏页太多,超过阈值,触发check point 强制刷新脏页数据到磁盘

3、关键特性

3.1、插入缓存

(1)为什么需要插入缓存?

我们知道索引分为聚集索引和非聚集索引。

聚集索引一般是自增的唯一id,页中的数据记录按顺序存放,写入的时候不需要随机读取其他页中的数据,写入速度很快(如果用UUID作为主键,写入速度会很慢,每次写入都需要随机读)

实际应用中,一张表往往还有非聚集索引的存在。非聚集索引叶子节点的插入不是顺序的,需要离散的访问非聚集索引页,随机读取导致了插入数据的性能下降。插入缓存就是为了优化这种场景下的插入速度

(2)什么场景会触发插入缓存?

  • 索引是辅助索引
  • 索引不是唯一索引

对于非聚集索引的插入,会先判断非聚集索引页是否在缓冲池中,如果在缓冲池中,直接插入索引页,如果没在,先放入到insert buffer对象中,然后再以一定的频率把insert buffer中的数据和非聚集索引的叶子节点进行数据合并

(3)实现原理

insert buffer 的数据结构也是B+树,有记录要插入的时候,会对记录进行封装,按照记录的插入顺序进行编号,是顺序写入

3.2、两次写

(1)为什么需要插入两次写?

如果InnoDB正在写入某个页的数据到磁盘,正好写了一部分的时候宕机了。这种情况称为部分写失效,会导致数据丢失

(2)实现原理

double write由两部分组成。一部分是double write缓冲,一部分是物理磁盘连续共享空间。在刷新脏页数据的时候,先复制一份脏页数据到两次写缓存中,在顺序写入共享磁盘中(因为是顺序写性能影响不大)。最后写入数据存储磁盘中(离散写)

3.3、自适应hash索引优化

hash是非常快的查询方式,时间负责度为O(1)。而B+树的查找次数取决于树的高度。

如果一个页被频繁的访问,而且访问模式也相同(联合索引使用最左原则)。会自动针对这页数据根据缓冲池中的索引建立Hash索引提高查询速度

3.4、异步IO

可以在发出一个IO请求后,在发出另外的IO请求,没必要等待上一次的IO请求处理完成。把全部IO请求都发出,等待所有IO操作的完成,这就是AIO(Aysnc IO)

 三、文件

MySQL据库和InnoDB存储引擎有很多类型的文件,每种文件用处不同。主要有参数文件、sokcet文件、pid文件、日志文件、表结构文件、存储引擎文件

1、日志文件

  • 错误日志:记录启动运行以及关闭遇到的错误信息
  • 查询日志:记录所有的查询记录
  • 二进制文件(binlog):记录所有的数据更改记录。用于数据恢复和数据复制。事务中未提交的二进制日志会存放到缓冲中,等事务提交时直接将缓冲中的日志同步到二进制文件中。通过配置可以指定写缓冲多少次之后同步到磁盘,如果值设置大于1,当发生宕机时可能会丢失数据
  • 慢查询日志:查询时间超过指定阈值的记录

2、InnoDB存储引擎文件

  • 表空间文件:存储数据
  • 重做日志文件:存储事务日志

四、表

1、索引组织表

InnoDB中,表数据都是按照主键顺序组织存放的。每张表都有主键,如果没有显示的定义主键,会把唯一索引作为主键。如果唯一索引也没有,会自动创建6字节大小的指针作为主键

2、存储结构

所有数据都存放在表空间中,表空间又由段、区、页组成

  • 段:表空间由各个段组成。段的管理由引擎自身完成
  • 区:每个区大小为1M,由连续页组成
  • 页:磁盘管理的最小单位,默认每个页大小16k
  • 行:数据是按行进行存放的,一个页最多存放16k/2-200=7992行

五、索引

为啥使用B+树?

InnoDB之所以采用B+树来组织索引,是由其扁平化的结构决定的。非叶子节点记录索引列的key值,真实数据只存在叶子节点,

这样的好处是非叶子节点很适合做缓存(一个大节点约16k,能存储1200多个key值)。真实数据库中的B+树是非常扁平的,高度为3时 容量可达22GB;高度4时则可存储 26TB。另外大节点之间用双向链表互连,方便顺序扫描。

数据库的索引结构是B+树,高度一般在2-4层,一次查找只需要2-4次的io。减少磁盘io。索引分为聚集索引和非聚集索引

 

1、聚集索引

按照每张表的主键构建的B+树,叶子节点中存储着整张表的行记录数据,每个叶子节点通过双向链表进行连接。因为实际的数据页只能按照一个聚集索引进行排列,每张表只能拥有一个聚集索引

聚集索引对于主键的范围查找和排序查找速度非常快。

2、非聚集索引(辅助索引)

叶子节点不包含行记录的全部数据,叶子节点只存储了键值和指向聚集索引的书签

3、索引创建和删除

3.1、Online Scheme Change(OSC)

在线架构改变,通过php脚本实现,在索引的创建或删除过程中,可以有读写事务对表进行操作。过程如下:

  • 创建和原表结构一样的新表
  • 对新表进行alter table操作
  • 创建临时表
  • 对原表添加触发器,把新产生的数据变化同步到临时表
  • 把原表的数据同步到新表
  • 将临时表的数据同步到新表
  • 对新表创建辅助索引
  • 再次回放临时表的数据到新表
  • 新表和旧表交换名字rename

3.2、mysql5.6开始支持online DDL

通过新的alter语法,可以选择索引的创建方式

4、什么样的数据适合创建辅助索引?

Cardinality表示索引中唯一值的数据的估计值(不是实时更新,使用采样法延迟更新),应尽可能接近表中数据总行数。

5、联合索引

联合索引也是一棵B+树,不同的是索引键值的数量大于等于2。联合索引的第二个好处是已经对第二个键值做了排序处理,减少了一次额外的排序操作

六、锁

1、MyISAM引擎

MyISAM引擎的锁是表锁设计,并发情况下读没有问题,但是写的性能会比较低

2、InnoDB引擎

2.1、锁的类型

  • 共享锁(S Lock)
  • 排它锁(X Lock)

2.2、一致性非锁定读

实现原理是通过MVCC机制实现,如果读取的行正处于update或delete中,读操作不会去等待行上X锁的释放,而是去读取行的快照数据。

一致性非锁定读可以极大的提高并发性能

不同的事务隔离级别,读取的快照版本是有差别的

  • 读已提交隔离级别,总是读取最新的快照版本。可能会产生幻读
  • 可重复读隔离级别,总是读取事务开始后第一次读取的快照版本。可以避免幻读的产生

2.3、一致性锁定读

默认配置下,采用可重复读的隔离级别,读取数据采取的是一致性非锁定读。

但是某些场景下需要对读取操作加锁来保证严格的数据一致性,这时候可以显式的对读取的记录进行加锁:

  • select *** for update(对读取记录加X锁)
  • select *** lock in share model(对读取记录加S锁)

2.4、锁的算法

  • record lock:单个记录的锁。
  • gap lock:间隙锁,锁定一个范围,不包括记录本身
  • next-key lock:gap lock+record lock

默认隔离级别(可重复读)下,默认加的是next-key lock(为了解决幻读问题),当索引中含有唯一属性时(唯一索引,主键索引),会降级为record lock。

在读已提交隔离级别下,加的是record lock

举个例子:

现在表z,有a,b两列,a是主键,全表只有一个主键索引。现在记录如下:(1,1)(3,1)(5,3)(7,6)(10,8)

select * from z where b=3 for update

因为b没有索引,所以走得是全表扫描。有因为加锁是通过对索引加锁实现,因为没有走索引,所有会锁整个表,也就是表锁

 

现在表z,有a,b两列,a是主键索引,b建立辅助索引。现在记录如下:(1,1)(3,1)(5,3)(7,6)(10,8)

select * from z where a=3 for update

主键索引加的锁是record lock,对记录(3,1)加锁

select * from z where b=3 for update

因为锁是通过对索引加锁实现的。所以这里需要对主键索引和辅助索引加锁,主键索引加的锁会由next-key锁退化成是record lock,辅助索引加的锁是next-key lock,锁定范围是(1,3)、3、(3,6)

七、事务 

1、事务的分类

  • 扁平事务(所有操作原子性,要么全提交,要么全回滚)
  • 带有保存点的扁平事务(允许事务执行过程中回滚到同一事务中较早的状态)
  • 嵌套事务(顶层事务控制着各个层次的事务)
  • 分布式事务(分布式环境下的扁平事务)

2、事务的实现

隔离性通过锁来实现,原子性、一致性、持久性通过redo日志和undo日志实现,事务提交时,必须将事务的所有日志写入重做日志进行持久化,并且当事务提交后才算成功

2.1、binlog 的写入机制

写入步骤:

  • 1、先把日志写到 binlog cache
  • 2、write,把日志写入到文件系统的 page cache,并没有把数据持久化到磁盘,所以速度比较快
  • 3、fsync,将数据持久化到磁盘。一般情况下,我们认为 fsync 才占磁盘的IOPS。

write 和 fsync 的时机,是由参数 sync_binlog 控制的:

  • 1)sync_binlog=0 的时候,表示每次提交事务都只 write,不 fsync;
  • 2)sync_binlog=1 的时候,表示每次提交事务都会执行 fsync;
  • 3)sync_binlog=N(N>1) 的时候,表示每次提交事务都 write,但累积 N 个事务后才 fsync。

每个线程有自己 binlog cache,但是共用同一份 binlog 文件。

2.2、redo log写入机制

写入步骤:

  • 1)写入到 redo log buffer 中,物理上是在 MySQL 进程内存中
  • 2)写到磁盘 (write),但是没有持久化,物理上是在文件系统的 page cache 里面
  • 3)持久化到磁盘(fsync)

为了控制 redo log 的写入策略,InnoDB 提供了 innodb_flush_log_at_trx_commit 参数,它有三种可能取值:

  • 1)设置为 0 的时候,表示每次事务提交时都只是把 redo log 留在 redo log buffer 中 ;
  • 2)设置为 1 的时候,表示每次事务提交时都将 redo log 直接持久化到磁盘;
  • 3)设置为 2 的时候,表示每次事务提交时都只是把 redo log 写到 page cache。

让一个没有提交的事务的 redolog 写入到磁盘中的三种情况:

  • 1)事务执行中间过程的 redo log 也是直接写在 redo log buffer 中的,这些redo log 也会被后台线程一起持久化到磁盘。也就是说,一个没有提交的事务的 redo log,也是可能已经持久化到磁盘的。
  • 2)redo log buffer 占用的空间即将达到 innodb_log_buffer_size 一半的时候,后台线程会主动写盘。注意,由于这个事务并没有提交,所以这个写盘动作只是 write,而没有调用 fsync,也就是只留在了文件系统的 page cache。
  • 3)并行的事务提交的时候,顺带将这个事务的 redo log buffer 持久化到磁盘。假设一个事务 A 执行到一半,已经写了一些 redo log 到 buffer 中,这时候有另外一个线程的事务 B 提交,如果 innodb_flush_log_at_trx_commit 设置的是 1,那么按照这个参数的逻辑,事务 B 要把 redo log buffer 里的日志全部持久化到磁盘。这时候,就会带上事务A 在 redo log buffer 里的日志一起持久化到磁盘。

2.3、如何提高磁盘的写入能力?

  • 1) redo log 和 binlog 都是顺序写,磁盘的顺序写比随机写速度要快;为了避免磁盘页面的随机写,只需要保证事务的redo log写入磁盘即可,这样可以通过redo log的顺序写代替页面的随机写
  • 2)组提交机制,可以大幅度降低磁盘的 IOPS 消耗。

2.4、组提交

日志逻辑序列号(log sequence number,LSN),是单调递增的,用来对应 redo log 的一个个写入点。每次写入长度为 length 的 redo log, LSN的值就会加上 length

三个并发事务 (trx1, trx2, trx3) 在 prepare 阶段,都写完 redo log buffer,持久化到磁盘的过程,对应的 LSN 分别是 50、120 和 160。

如果Trx3日志先获取到log_mutex进行落盘,它就可以顺便把[LSN1---LSN3]这段日志也刷了,这样Trx1和Trx2就不用再次请求磁盘IO

  1. 获取 log_mutex
  2. 若flushed_to_disk_lsn>=lsn,表示日志已经被刷盘,跳转5
  3. 若 current_flush_lsn>=lsn,表示日志正在刷盘中,跳转5后进入等待状态
  4. 将小于LSN的日志刷盘(flush and sync)
  5. 退出log_mutex

所以,一次组提交里面,组员越多,节约磁盘 IOPS 的效果越好

如果你想提升 binlog 组提交的效果,可以通过设置binlog_group_commit_sync_delay 和
binlog_group_commit_sync_no_delay_count 来实现。

  • 1)binlog_group_commit_sync_delay 参数,表示延迟多少微秒后才调用 fsync;
  • 2)binlog_group_commit_sync_no_delay_count 参数,表示累积多少次以后才调用 fsync。

这两个条件是或的关系,只要有一个满足条件就会调用 fsync。

2.5、事务提交时序

两阶段提交:

  • Prepare阶段,记录undo log,innodb刷redo log到磁盘,并将回滚段设置为Prepared状态,binlog不作任何操作。
  • commit阶段,innodb释放锁,释放回滚段,设置提交状态,binlog刷binlog日志到磁盘。

出现异常,需要故障恢复时,若发现事务处于Prepare阶段,并且binlog存在则提交,否则回滚。通过两阶段提交,保证了redo log和binlog在任何情况下的一致性。

 

 

通常我们说 MySQL 的“双 1”配置,指的就是 sync_binlog 和innodb_flush_log_at_trx_commit 都设置成 1。也就是说,一个事务完整提交前,需要等待两次刷盘,一次是 redo log(prepare 阶段),一次是 binlog。

2.6、关于事务提交时序的优化

将prepare阶段的刷redo动作移到了commit(flush-sync-commit)的flush阶段之前,保证刷binlog之前,一定会刷redo。

移到commit阶段的好处是,可以不用每个事务都刷盘,而是leader线程帮助刷一批redo。

如何实现,很简单,因为log_sys->lsn始终保持了当前最大的lsn,只要我们刷redo刷到当前的log_sys->lsn,就一定能保证,将要刷binlog的事务redo日志一定已经落盘。通过延迟写redo方式,实现了redo log组提交的目的,而且减少了log_sys->mutex的竞争。

目前这种策略已经被官方mysql5.7引入。

 

posted @ 2019-09-17 17:49  leon66666  阅读(811)  评论(0编辑  收藏  举报